AI倫理とは?日本政府・企業における取り組みも紹介

AI技術の発展により、AIは私たちにとって身近な存在となり、生活を豊かなものへと変えてきました。一方で、AI技術が発展するにつれて、AIの持つリスクが注目され、「AI倫理」が重要視されるようになりました。本記事では、AI倫理の意味を説明するとともに、日本国内で政府や企業が行っている取り組みを紹介します。

AI倫理とは

まずはAI倫理について説明します。

AI倫理の意味

AIとは‟Artificial Intelligence”の略称で、人工知能を指します。コンピューター自身が学び、データから推論・判断・解決する人間の知的能力を模した技術です。

一方で、倫理とは一般的に、人が守るべき善悪を判断する普遍的な基準を指します。

AI倫理はこのふたつの用語を合わせた言葉で、AIを活用する際に人を傷つけたり、社会に悪影響を与えたりしないよう、AIの開発・利用時に意識すべき善悪の基準を意味します。

AI倫理を考える際に想定すべき主なリスクに、「プライバシーの侵害」「公平性の欠如」「不透明性」「責任の所在の不明確さ」の4つがあります。それぞれについては、のちほど詳しく紹介します。

その前に、AI倫理が重要視されるようになった背景を見ていきましょう。

AI倫理が重要視される背景

AI倫理が重要視されるようになった背景として、次のようなことが挙げられます。

  • AIの急激な進化と広がり

デジタル機器や技術の進化に伴ってAIも進化し、さまざまな分野で活用されるようになりました。スマートフォンやクラウドコンピューティングなど、私たちの身近なところでも活用されています。急激に身近な存在になったからこそ、人を傷つけたり社会を混乱させたりすることを防ぐため、AI倫理に関心が集まるようになりました。

  • AIの学習能力の高さゆえに考えられるリスクの存在

AIは人の生活をより豊かなものにするのに役立つ一方で、人や社会に対し害をなすリスクも秘めています。AIの学習能力の高さは、ときに人が制御できないレベルとなり、想定していなかったようなトラブルを起こす可能性があります。そのような可能性も想定し、人や社会へ害を与えることを防ぐためにも、AI倫理の重要性がいわれるようになりました。

AI活用に伴うリスクに対する取り組みとして、アメリカの調査会社Gartnerが「AI TRiSM」を提唱しています。詳しくは、「AI TRiSMとは?DX推進に向けて押さえておくべきトレンド」をご覧ください。

AI倫理を考える際に想定すべきリスク

AIは私たちの生活をより便利で豊かなものにする力を持つ一方、人がそれを活用する際に、個人や社会に害をなすリスクも秘めています。どのようなリスクが考えられるのでしょうか? 4つのリスクについて紹介します。

プライバシーの侵害

AIは膨大な個人情報や機密情報を効率的に収集・分析・利用することが可能です。AIにより収集した個人情報を悪用したり、機密情報を流出させたりする事態は、けっして起きてはなりません。例えば、顔認識技術は犯罪防止やセキュリティ向上に役立つ技術ですが、利用する側に悪意があれば、罪のない個人の行動の追跡も可能にします。それは、当然プライバシーの侵害です。

公平性の欠如

AIの判断にも先入観や偏見などのバイアスが含まれるといわれています。それを理解したうえでAIによる分析を利用しなければ、公平性の欠如につながるおそれがあります。例えば、AIが収集した性別・人種・学歴などの特徴から採用の最終判断を下すようなことも、公平性の欠如になります。

不透明性

AIのアルゴリズムがブラックボックス化すると、ロジックや決定根拠が不透明になり、AIの自己学習・改善を制御できなくなるおそれがあります。暴走したAIの偏見や差別の反映・増幅を止めることができなくなる可能性もあるでしょう。

責任の所在の不明確さ

AIの判断が原因となる事故が起きた場合、責任の所在が利用者にあるのか、開発者にあるのかといった判断が難しい問題があります。例えば、医療現場において診断をAIに任せているなかで診断ミスがあった場合、その責任がAI開発責任者、AIの利用を決めた病院、AIによる診断を伝えた医師のいずれにあるのかを明確にするのは困難です。AI自体に責任があるとする見方もあります。

AI倫理に対する日本国内の取り組み

AI倫理に対する日本政府や日本企業の取り組みについて紹介します。

日本政府の取り組み

日本政府は、AI利用に際して、2019年3月に「人間中心のAI社会原則」を発表しています。そこには、次の7つの守るべき原則が盛り込まれています。

  • 人間中心の原則

AIの利用は基本的人権を侵すものであってはならないと記載されています。AIは人間を助けるもので、あくまでも人間が中心であることを強調しています。

  • 教育・リテラシーの原則

どのような人でも公平にAIを理解し、活用できるよう、子どもから高齢者まで、平等な教育機会を提供するべきことに触れています。教育すべき内容には、AIのリスクも含まれます。

  • プライバシー確保の原則

AIにより収集された個人情報(パーソナルデータ)については、個人の自由・尊厳・平等を侵害しないよう取り扱わなければならないといった内容です。プライバシー保護の対策を講じるべきことにも言及しています。

  • セキュリティ確保の原則

社会は研究開発を継続し、AI自体のサイバーセキュリティ確保などのリスク管理に持続的に取り組まなくてはならないとしています。

  • 公正競争確保の原則

特定の国や企業にAIによる利益が集中した場合でも、地位を悪用した不当なデータ収集や主権の侵害などが行われるようなことがあってはならないと、警鐘を鳴らしています。

⮚ 公平性・説明責任・透明性(FAT)の原則

人がAIによる不当な差別を受けず、人の尊厳が守られるように、AIによるデータをもとにした意思決定には公平性・透明性を持たせ、意思決定の結果には説明責任が確保される必要があるとしています。

  • イノベーションの原則

AIによりイノベーションを起こすため、プライバシーとセキュリティ確保に留意しながら、産学官民連携やグローバル規模の協業について積極的に取り組むべきとしています。

参考:人間中心のAI 社会原則統合| イノベーション戦略推進会議

日本企業の取り組み事例

日本でもAI倫理に取り組む企業が増えています。そのなかから事例を2件紹介します。

  • 富士通株式会社のAI倫理に関する影響評価方式の開発

富士通株式会社では、信頼できるAIを社会に普及させることを目的に、AI倫理上の影響を評価するための方式を開発しました。

その方式は主に下記ふたつの手順で構成され、AI倫理ガイドラインに対する解釈の差から生じる誤解の回避や、想定される倫理課題への事前対処に活用できます。

  • 自然言語によるAI倫理ガイドラインについて、内容を構造化し倫理要件を明確にする手順
  • 明確化した倫理要件をAIシステムに対応づけする手順

同社は、自社内で活用するだけではなく、社会への普及という目的から、手順書や適用例を無償で公開しています。

参考:富士通のAI倫理ガバナンス |富士通

  • 株式会社野村総合研究所のグループAI倫理ガイドライン策定

株式会社野村総合研究所(以下、NRI)では、AIによる社会の課題解決・持続可能性を実現するため、AIの開発・活用における考え方や指針をまとめたガイドラインを策定しています。AIに関連するグループすべての活動は、このガイドラインに基づき推進されています。

ガイドラインはNRIの企業理念である「未来創発」、推進している「サステナビリティ経営」に基づき作成されました。AIが社会におよぼす良い影響、悪い影響を洞察しながら、ステークホルダーと対話・共創することでAI開発を適切に行い、効果的な活用をすると宣言しています。

参考:野村総合研究所、「NRIグループAI倫理ガイドライン」を策定 | 野村総合研究所

AIのリスクと倫理の重要性を知って活用していこう

AIは、私たちの生活をより豊かなものにするために今後ますます必要になってくる存在です。一方で、AIの利用には、プライバシー侵害や差別、責任の所在の不明確さなどの多くのリスクも存在します。開発側、ユーザー側、AIにかかわるすべての人がそのリスクを理解し、倫理を守って開発・利活用していくことが重要です。

AI倫理はまだ世界中で議論されている段階ですが、AIにより誰かを傷つけたり、社会に損害をもたらせたりすることは絶対に避けなければなりません。 AI倫理を意識し、中立性に留意してAIと向き合うことこそが、将来にわたって長くAIを活用し続けられる社会へとつながっていくのではないでしょうか。